Информация о номерах билдов и датах релиза продуктов VMware.
Часто пользователям требуется информация о том, какому номеру билда соответствует версия продукта от VMware (такое бывает нужно, например, для VMware vSphere / ESXi, vCenter, vCenter Server Appliance). К тому же, иногда бывает полезно узнать, когда вышла та или иная версия продукта.
Поэтому мы взяли из этого поста информацию о продуках, датах релиза и номерах версий, чтобы можно было всегда обращаться к этому посту у нас.
Converter Standalone / Enterprise
| Version
| Release Date
| Build Number
| Installer Build Number
|
| Converter Standalone 5.5.2 |
2014-07-24 |
1890136 |
N/A |
| Converter Standalone 5.5 |
2013-10.22 |
1362012 |
N/A |
| Converter Standalone 5.1 |
2013-04-24 |
1087880 |
N/A |
| Converter Standalone 5.0.1 |
2012-10-25 |
875114 |
N/A |
| Converter Standalone 5.0 |
2011-08-31 |
470252 |
N/A |
| Converter Standalone 4.3 |
2010-08-30 |
292238 |
N/A |
| Converter Enterprise 4.2.0 (VC 4.1) |
2010-07-13 |
254483 |
N/A |
| Converter Enterprise 4.1.1 (VC 4.0) |
2009-05-21 |
206170 |
N/A |
| Converter Standalone 4.0.1 |
2009-05-21 |
161434 |
N/A |
| Converter Standalone 4.0 |
2009-02-12 |
146302 |
N/A |
| Converter Standalone 3.0 |
2008-01-12 |
89816 |
N/A |
Нажимайте читать далее. Таги: VMware, vSphere, ESXi, vCenter, Converter, Enterprise
Тормозит VMware vSphere Web Client? Удалите ненужные плагины!
Те из вас, кто много всего устанавливает в своей тестовой лаборатории или продакшен-среде VMware vSphere, наверное рано или поздно сталкиваются с тем, что vSphere Web Client очень медленно грузится (иногда по 2-3 минуты) или тормозит при работе в нем.
Одна из возможных причин тормозов - наличие установленных плагинов, которые может быть вам уже и не нужны, а отъедают системные ресурсы.
Поэтому иногда целесообразно удалить их. Идем в Managed Object Browser (MOB) на сервере vCenter, для чего переходим в браузере по такой ссылке:
http://<vcenter_name_or_IP>/mob
Далее после аутентификации переходим в раздел "content" (здесь и далее необходимые ссылки подсвечены желтым):

Затем переходим в раздел ExtensionManager:

Там нам нужно найти соответствующий плагин для удаления. Вот таблица всех плагинов VMware, которые могут быть подцеплены к Web Client:
Например, нам надо из vSphere Client удалить плагин vSphere Data Protection, находим его (записываем - все, что в квадратных скобках без кавычек) и проваливаемся дальше:

Вызываем для него метод UnregisterExtension:

В качестве значения при вызове метода указываем имя плагина, например, "com.vmware.vdp":

После успешного вызова метода он должен возвратить результат "void":

Таким вот нехитрым способом можно удалить все лишние плагины с сервера, где установлен vSphere Web Client, после чего последний станет значительно быстрее запускаться.
Идея и картинки взяты здесь. Таги: VMware, Web Client, Troubleshooting, vSphere, Update, Performance
Чем StarWind Virtual SAN лучше VMware Virtual SAN.
Не секрет, что на рынке для создания отказоустойчивых программных хранилищ для виртуальных машин есть два лидера - это StarWind Virtual SAN (о котором мы часто пишем) и VMware Virtual SAN (продукт компании VMware для своей платформы vSphere).
В таблице ниже мы решили показать, почему StarWind Virtual SAN во многом лучше VMware Virtual SAN, рассмотрев значимые для администраторов технические критерии выбора продукта. Конечно же, это не все критерии и по каким-то параметрам Virtual SAN от VMware будет работать лучше, кроме того продукты представляют собой различные архитектуры построения отказоустойчивых кластеров, но тем не менее в каком-то ракурсе сравнить их все-таки можно.
Итак:
| Критерий сравнения
| StarWind Virtual SAN | VMware Virtual SAN
|
| Минимальное число узлов кластера |
2 |
3 |
| Максимальное число узлов |
Не ограничено (разные кластеры) |
32 (один кластер) |
| Максимальная емкость кластеров |
Не ограничена (разные кластеры) |
148 ТБ (один кластер) |
| Наличие Flash-накопителей (SSD) |
Не требуется |
Обязательно |
| Тип RAID |
Любой |
Только 5, 10 |
| Наличие коммутатора 10G |
Не обязательно |
Обязательно |
| Технология дедупликации |
Встроенная (in-line) |
Отсутствует |
| Поддержка создания кластеров хранилищ для ВМ Hyper-V |
Да |
Нет |
| Кэш |
В памяти (WB or WT) или Flash cache |
Только Flash cache |
Более подробно о новых возможностях восьмой версии StarWind Virtual SAN можно узнать вот тут, а тут доступен документ со сравнением платного и бесплатного изданий продукта.
Таги: StarWind, Virtual SAN, Сравнение, VMware, vSphere, Storage, HA, iSCSI
Новая архитектура сервисов управления VMware vCenter в VMware vSphere 6.
Новая архитектура сервисов управления VMware vCenter в VMware vSphere 6.
Некоторое время назад мы писали о новых возможностях платформы виртуализации VMware vSphere 6, о которых было подробно рассказано на прошедшей конференции VMworld 2014. Одним из нововведений новой версии станет новая архитектура сервисов управления VMware vCenter.
Надо начать с того, что "толстый" десктопный клиент vSphere Client в vSphere 6 по-прежнему останется доступен для управления виртуальными машинами через vCenter. Причины просты - компании VMware так и не удается довести до ума Web Client - он все еще притормаживает и не настолько быстро обновляет статус объектов, как это делает обычный vSphere Client. Однако все новые возможности будут появляться только в vSphere Web Client.
С точки зрения самого vCenter появляется новый сервис Platform Services Controller (PSC), который заменяет существующие сервисы Single Sign-On (напомним, что они уже были переписаны в версии SSO 5.5). Если ранее SSO был частью vSphere и обновлялся только вместе с платформой, то теперь PSC может быть обновлен отдельно (например, если появились новые источники аутентификации или были исправлены ошибки), что очень удобно.
На картинке ниже Infrastructure Controller (это так сейчас в бете называется Platform Services Controller) может быть выделен для каждого сервиса vCenter, но также и несколько сервисов vCenter могут использовать один PSC.

В обоих случаях сохраняются функции синхронизации данных между контроллерами и механика их отказоустойчивости.
Помимо стандартных функций аутентификации SSO, компонент PSC возьмет на себя управление лицензиями, а также хранение сертификатов.
Когда у вас до 8 серверов vCenter в рамках одной географической площадки, то можно использовать один PSC (который устанавливается на том же хосте, где и один из серверов vCenter). Ну а если у вас несколько датацентров, то для каждого разумнее использовать свой PSC, к которому подключаются не только сервисы vCenter, но и другие компоненты виртуальной инфраструктуры, например, продукт для управления облачной инфраструктурой VMware vCAC или средства автоматизации vRealize Orchestrator (бывший vCenter Orchestrator):

Шестую версию vCenter уже настоятельно рекомендуют устанавливать в виртуальной машине, так как только тогда можно будет воспользоваться преимуществами технологий отказоустойчивости и непрерывной доступности VMware HA и VMware Fault Tolerance. Ранее был продукт и для физических серверов - vCenter Heartbeat, но его сняли с производства.
Настало время объединить все сервисы управления виртуальной средой (vCenter, серверы vCAC, vCenter Log Insight, vCenter Orchestrator, vCenter Operations Manager и т.п.) в виде блоков в виртуальных машинах:

Также весьма существенно будет доработан виртуальный модуль vCenter Server Appliance (vCSA). Теперь он будет поддерживать до 1 000 серверов ESXi под своим управлением, 10 000 включенных виртуальных машин, 64 хоста ESXi на кластер HA/DRS, 6 000 ВМ в кластере, а также 10 серверов vCenter в режиме Linked Mode.
Как многие из вас знают, ранее режим Linked Mode не поддерживался со стороны vCSA, так как для этого режима использовалась модель Active Directory Application Mode (ADAM), не поддерживаемая в Linux. Теперь для Linked Mode используется собственная аутентификация, поэтому объединение нескольких машин vCSA в единую мета-сущность теперь вполне возможно.
Как Windows-версия, так и vCSA будут использовать встроенную БД vPostgres, а в качестве внешних БД стандартно будут поддерживаться Microsoft SQL Server и Oracle.
Ну и, помимо всего прочего, сейчас ходят слухи о выпуске вместе с VMware vSphere 6 утилиты для миграции с Windows-версии vCenter на vCSA. Эта штука для многих пользователей будет очень кстати. Таги: VMware, vCenter, Update, vSphere
Свежее с VMware Labs - плагин PowerActions for vSphere Web Client.
На сайте проекта VMware Labs (напомним, что за его обновлениями можно следить у нас вот тут) появился интересный плагин для VMware vSphere Web Client - PowerActions. Он позволяет хранить и исполнять сценарии PowerCLI прямо из веб-клиента, что очень удобно, когда администратор выполняет повседневные задачи по управлению виртуальной инфраструктурой, где некоторые операции автоматизированы средствами PowerShell.

Кроме того, PowerActions предоставляет высокую степень интеграции с vSphere Web Client - вы можете, например, открыть контекстное меню для объекта (к примеру, виртуальная машина или кластер) и выполнить скрипт PowerCLI для него.
Кроме всего прочего, PowerActions - это отличный способ расшарить ваши скрипты другим администраторам виртуальной инфраструктуры VMware vSphere, которые могут нуждаться в ваших наработках.
Вот тут в блоге компании VMware очень детально расписано как установить и пользоваться плагином PowerActions for vSphere Web Client. Скачать его можно по этой ссылке. Таги: VMware, Labs, PowerCLI, PowerShell, Web Client, vSphere
Вышло обновление VMware vSphere 5.5 Update 2, включая ESXi 5.5 Update 2 и vCenter Server 5.5 Update 2.
Вчера компания VMware выпустила обновление для платформы виртуализации VMware vSphere 5.5 Update 2, которое включает в себя апдейты составляющих компонентов - ESXi 5.5 Update 2 и vCenter Server 5.5 Update 2.

Основные новые возможности обновления:
- Поддержка хостов ESXi с объемом памяти до 6 ТБ.
- Агентское ПО VMware vShield Endpoint Thin Agent для поддержки взаимодействия с решениями vShield, которое устанавливается в гостевых ОС вместе с VMware Tools, теперь называется VMware Tools Guest Introspection plugin.
- vCenter Server 5.5 U2 теперь поддерживает следующие внешние СУБД: Oracle 12c, Microsoft SQL Server 2012 Service Pack 1 и Microsoft SQL Server 2014.
- Поддержка vCloud Hybrid Service (vCHS, переименован в vCloud Air) - теперь в vSphere Web Client на стартовой странице появился новый контейнер Hybrid Cloud Service, который содержит установщики vCHS и vCloud Connector.
- Появились технические средства программы Customer Experience Improvement Program - теперь данные о конфигурации вашей виртуальной инфраструктуры на еженедельной основе могут передаваться на сторону VMware, чтобы она могла
шпионить анализировать их и улучшать продукт.
- Множественные исправления ошибок, о которых можно почитать в Release Notes.
При этом у данного релиза есть следующие особенности:
- Начиная с vSphere 5.5 Update 2, операционные системы Windows XP и Windows Vista не поддерживаются для vSphere Web Client. Полный список поддерживаемых систем находится в VMware Compatibility Guide.
- Так как Linux-платформы больше не поддерживаются механизмом Adobe Flash, то Web Client не поддерживается в ОС Linux. Но не поддерживается - не значит, что это прекратило работать.
- VMware vCenter Server Appliance в vSphere 5.5 поддерживает гайдлайны по обеспечению ИБ DISA Security Technical Information Guidelines (STIG), поэтому перед использованием этого решения надо бы почитать VMware Hardened Virtual Appliance Operations Guide для того, чтобы узнать о новых стандартах безопасности и о том, как нужно работать, чтобы security-примочки не мешали.
- В VMware vSphere 5.5 U2 больше не поддерживается СУБД IBM DB2 как база данных для vCenter.
- Вся информация касательно установки VMware Tools в гостевых ОС теперь представлена в общей документации по VMware vSphere (начиная с версии 5.5).
- vSphere Data Protection 5.1 не совместима с vSphere 5.5 по причине изменения рабочих процессов в vSphere Web Client. То есть, вместе с vSphere надо обновлять и VDP.
- При обновлении компонентов виртуальной инфраструктуры посмотрите также Interoperability Matrix.
Скачать VMware vSphere 5.5 Update 2 можно по этой ссылке. Документация доступна тут. Таги: VMware, vSphere, Update, ESXi, vCenter, vCSA
Стенсилы и иконки VMware Visio Stencils выпуск 4.
Традиционно мы рассказываем о всяческих инконках, шаблонах, графике и стенсилах в формате Visio, которые могут помочь в документировании виртуальной инфраструктуры VMware vSphere (последний раз - это было тут, там же ссылки на все остальное).
На днях обновились стенсилы Visio от автора сайта technodrone.blogspot.com - появилась 4-я часть блока графики, включающая в себя иконки схематичного вида (около 90 штук). В целом, творения автора - затея очень полезная, ведь он рисует эти иконки аж с 2009 года.

Графика теперь разбита на 4 части:
- Part 1 - коробки продуктов, основные иконки и шейпы.
- Part 2 - концепции технологий и продуктов VMware.
- Part 3 - сгруппированные продукты.
- Part 4 - иконки, которые и стали частью релиза.
В общем, теперь графика точно есть на все случаи жизни. Таги: VMware, Visio, Graphics, Icons, vSphere, NSX
Вышел VMware vCloud Suite 5.8 - новые возможности продуктов.
На проходившей на прошлой неделе конференции VMworld 2014 компания VMware анонсировала обновленную версию пакета продуктов VMware vCloud Suite 5.8 (о том, что это такое, мы писали вот тут). Напомним, что vCloud Suite - это комплект решений для создания частного облака на основе продуктов VMware. Он поставляется в одном из трех изданий:

Состав пакета VMware vCloud Suite (основные компоненты):
Поскольку версия продвинулась всего лишь до 5.8, а не до полноценной шестерки (при этом версия vSphere так и осталась 5.5), то новых возможностей у продуктов, входящих в состав пакета, не так уж и много.
Итак, что нового в VMware SRM:
- 5x the scale of protection – теперь можно защитить до 5000 виртуальных машин для одного сервера VMware vCenter (это в пять раз больше предыдущего лимита).
- Enhanced self-service - улучшенные возможности портала самообслуживания для пользователей, которые позволяют самостоятельно применить политики катастрофоустойчивости к новым виртуальным машинам на основе шаблонов в vCloud Automation Center при использовании репликации на уровне дискового массива (array-based replication). В vCAC решение SRM доступно теперь как сервис.
В целом VMware vCloud Suite 5.8 получил следующие новые возможности:
- Big Data Extensions, поддерживающие решение Hadoop 2.
- Улучшенное взаимодействие с решением VMware NSX.
- Новые средства проактивной поддержки (бесплатный плагин Support Assistant для vCenter).
Также технология репликации на уровне хоста продвинулась до версии vSphere Replication 5.8. Там появились средующие новые возможности:
- Поддержка публичного облака VMware vCloud Air. Теперь при настройке репликации предлагают выбрать, куда нужно будет это делать - на другой хост под управлением vCenter или в облако.

- Представление обоих типов репликации в vSphere Web Client:

- Улучшилась отчетность по репликации. Теперь она включает в себя такие параметры, как Replicated VMs (by VC), Replicated VMs (by Host), RPO Violations и Transferred Bytes.

Обновилось и средство резервного копирования VMware vSphere Data Protection Advanced до версии 5.8. Там появились следующие новые возможности:
- Улучшенная поддержка бизнес-критичных приложений. Пользователи могут выполнять бэкапы кластеров серверов Microsoft SQL Server, также как и групп Microsoft Exchange DAGs (Database Availability Groups).
- Прокси-серверы и Backup Work Streams теперь более кастомизабельны - теперь можно выбрать число параллельно выполняемых потоков резервного копирования, чтобы соблюсти требования по SLA.
- Теперь можно восстановить реплицируемые ВМ как на основной, так и на резервный сайт. Реплицированные ВМ можно снова реплицировать.
Помимо этого обновились и средства автоматизации администрирования PowerCLI 5.8 U1:
- Улучшенная скорость работы
- Командлеты политик хранилищ
- Возможность опроса свойств виртуальных модулей OVF/OVA, а также их развертывание и конфигурация
- Фильтры по тэгам
- Улучшенная отчетность по ошибкам
- Поддержка RelatedObject в процедуре Get-HardDisk
- Поддержка фильтров в разных областях
- Поддержка последней версии vCloud API
- Новый командлет New-CIVM
- Поддержка VMware SRM 5.8.
Про стоимость и комплектацию решения VMware vCloud Suite 5.8, доступного уже сегодня, написано в этом документе. Таги: VMware, vCloud, Update, Suite, Replication, vSphere, vCAC, SRM, VDP, Backup, PowerCLI
Новые возможности VMware vSphere 6 - новости с VMworld 2014.
Не так давно мы писали о публичной бета-версии VMware vSphere 6, где каждый желающий мог скачать ее, посмотреть на список новых функций, но написать об этом не мог. На конференции VMware VMworld 2014 мораторий, по-сути, был снят - и теперь можно писать и рассказывать о новых возможностях платформы сколь угодно подробно.
Итак, что нового мы увидим в первой половине 2015 года (а именно тогда выйдет VMware vSphere 6):
1. Поддержка технологией Fault Tolerance до четырех виртуальных процессоров машины (4 vCPU).
Теперь технология непрерывной доступности VMware Fault Tolerance будет поддерживать виртуальные машины с 4 vCPU и объемом памяти до 64 ГБ.

Ранее для работы FT использовался механизм "Record-Replay" средствами технологии vLockstep, который воспроизводил инструкции основной машины на резервной. Теперь же используется техника Fast Checkpointing, которая позволяет организовать исполнение потока инструкций одновременно на обеих машинах. Если по какой-либо причине сетевое соединение между машинами замедляется, основная машина тоже начинает работать медленнее.
При этом теперь VMware Fault Tolerance можно будет конфигурировать для включенной виртуальной машины. Однако, по-прежнему, остаются следующие ограничения:
- На хост ESXi можно иметь до 4 машин, защищенных технологией FT, при этом всего суммарно может быть защищено до 8 vCPU. Обратите внимание, что эти максимумы применяются суммарно к Primary и Secondary виртуальным машинам, расположенным на этом хосте.
- Обязательно потребуется адаптер 10 Gb. Можно будет его разделять между различными типами трафика средствами NetIOC.
- Нельзя использовать горячее добавление CPU или памяти для таких машин (Hot Add).
- Если несколько vCPU затронуто технологией FT, то для таких машин не поддерживается Storage vMotion.
- Кроме того, технику SMP-FT не поддерживают такие вещи, как vCloud Director, vSphere Replication, VSAN/vVols и vFlash.
При этом для таких машин полностью поддерживается VMware vMotion, а также они (как и раньше) защищаются кластером VMware HA - если с одной из машин что-то случается, то на другом хосте перезапускается реплика, которая уже становится Secondary VM.

Помимо этого, надо понимать, что SMP-FT вызовет падение производительности гостевой ОС, по оценкам VMware - это около 10-30% в зависимости от нагрузки.
Приятная новость - многопроцессорная FT будет поддерживать снапшоты виртуальных машин, а значит вы сможете делать их резервные копии средствами Veeam Backup and Replication или любым другим средством, поддерживающим vStorage APIs for Data Protection.
2. Улучшения горячей миграции виртуальных машин на большие расстояния (long distance vMotion).
О long distance vMotion мы уже писали вот тут, а впервые - вообще пять лет назад. И только сейчас обещания станут реальностью.
Теперь работающую виртуальную машину можно перемещать на расстояния, где RTT (Round Trip Time) в канале достигает 100 мс (неофициально поддерживается значение 150 мс). Это в 10 раз больше, чем было раньше.
И это - расстояние до 3000 километров (!). Теперь менеджерам датацентров открываются очень интересные стратегии по таким вариантам использования, как Follow the sun (машины работают там, где работают люди) и Follow the moon (машины работают ночью, когда электричество дешевле).
Кроме того, появились следующие улучшения технологии vMotion.
- vMotion между разными серверами vCenter (нужна сеть на скорости 250 Mbps). Это происходит средствами протокола VMware Network File Copy (NFC).
- Маршрутизируемый трафик vMotion (наконец-то).
- vMotion между виртуальными коммутаторами vSwitch, а также Virtual Distributed Switch (VDS), поддерживаются режимы VSS to VSS, VSS to VDS, VDS to VDS (а вот VDS to VSS - нельзя).
- средствами VMware NSX сетевые настройки машин могут быть перемещены в горячем режиме даже, если используется long distance vMotion.

3. Улучшенная производительность и новые возможности vSphere Web Client.
Здесь пока не сильно много деталей: появятся библиотеки контента (версии машин, темплейтов) и функции publish и subscribe для них. Также существенно будет улучшена производительность и уменьшен отклик при различных операциях.
4. Технология Virtual Volumes.
О ней мы уже писали вот тут и тут.

Все это приходит в рамках концепции создания конвергентной инфраструктуры и развития парадигмы Software-Defined-Datacenter.
Здесь используются три основных элемента:
- Vendor Provider (VP) – это плагин от производителя системы хранения данных, поддерживающий VVols через VASA API версии 2.0.
- Storage Containers (SC) – это контейнеры на дисковом массиве, в которые упаковываются VMDK-диски каждой из машин. Это операбельная единица со стороны и системы хранения, и платформы VMware vSphere.
- Protocol Endpoints (PE) – это средства управления томами на базе политик, предоставляемые администраторам. В них уже не будет понятий LUN и точек монтирования. Будет просто VVol, который можно привязывать и отвязывать от серверов ESXi/vCenter.
Все хранилища будут управляться на базе политик (сейчас это реализовано в VSAN):

5. Технология Virtual Datacenters.
Концепция виртуальных датацентров объединяет в себе пул вычислительных кластеров, кластеров хранилищ и политики их покрывающие. То есть это такой большой ресурсный контейнер, в котором есть зачатки интеллекта: он решает в какой из кластеров поместить виртуальную машину и на каком хранилище размещать виртуальные диски, чтобы это соответствовало определенным политикам.

По сути, это еще один уровень абстракции для крупных инфраструктур, в которых можно оперировать вот такими большими объектами из нескольких кластеров серверов и хранилищ.
6. Новые максимумы для хостов ESXi.
Нам обещают следующие параметры:
- 320+ pCPU
- 4+ TB Mem
- 4096+ vCPUs
- 32+ Nodes/Cluster
- 62TB+ VMDKs
Также с большой долей вероятности в VMware vSphere 6.0 мы увидим следующие возможности, о которых говорили на VMworld 2014:
- Полная поддержка NVIDIA GRID vGPU - больше информации доступно тут.
- Технология vSphere APIs for IO Filtering (VAIO) - о ней рассказано здесь.
- Технология VMFork - метод по мгновенному клонированию запущенных виртуальных машин.
Больше подробностей о VMware vSphere 6 можно прочитать вот тут. Таги: VMware, vSphere, Update, ESXi, vCenter, FT, vMotion
Решение VMware EVO:RAIL - строительный блок для конвергентной инфраструктуры.
На проходящей сейчас в Сан-Франциско конференции VMworld 2014 компания VMware представила несколько интересных анонсов, которые (как всегда) открывают много возможностей для ИТ-инфраструктур различного масштаба. Одним из таких анонсов стал выпуск решения VMware EVO:RAIL, предназначенного для построения конвергентной инфраструктры.
Таги: VMware, EVO, SMB, Hardware, vSphere, Partners, ESXi, vCenter
Обновился VMware I/O Analyzer на VMware Labs - новые возможности.
Почти три года назад мы писали про средство VMware I/O Analyzer, предназначенное для генерации нагрузки и анализа статистики ввода-вывода хостов VMware ESXi, доступное на сайте проекта VMware Labs. Не так давно вышло обновление этого средства, которое, как оказалось, живет и развивается.

VMware I/O Analyzer поставляется в виде виртуального модуля (готовой ВМ), предоставляющего администраторам следующие возможности:
- Интегрированный фрейворк для тестирования производительности хранилищ средствами генераторов нагрузки.
- Готовый к развертыванию виртуальный модуль (управляющая ВМ и "воркеры" - генераторы нагрузки).
- Прост в настройке и возможность исполнения тестов на одном или нескольких хостах ESX/ESXi.
- Возможность просмотра результатов производительности как на уровне хоста, так и на уровне гостевой ОС.
- Возможность экспорта данных для последующего анализа.
- Средства "повторения" нагрузки на хранилища путем ее воспроизведения из трейса ввода-вывода.
- Возможность загрузки трейсов ввода-вывода для автоматического извлечения необходимых метрик.
- Графическая визуализация метрик и результатов анализа производительности.
В обновленном VMware I/O Analyzer 1.6.x появились следующие возможности:
- Улучшенный планировщик заданий ввода-вывода.
- Сам виртуальный модуль теперь на платформе SLES 64-bit, а сервер на Tomcat 6.
- Экспериментальная поддержка статистик клиента NFS.
- Возможность использования непостоянной (non-persistent) конфигурации (без сохранения настроек).
- Сама ВМ с I/O Analyzer теперь версии 7, что позволяет запускать и использовать ее в ESX/ESXi 4.x.
- Улучшения на бэкэнде, позволяющие поддерживать до 240 и более генераторов нагрузки.
На самом деле с 2011 года много что изменилось в этом продукте, поэтому ознакомьтесь с юзер-гайдом, в котором есть история добавления фичей по версиям.
Скачать VMware I/O Analyzer можно по этой ссылке. Очень хорошо, что подобные утилиты не ограничиваются одним релизом, а развиваются и обрастают функционалом. Таги: VMware, Storage, Performance, Analyzer, vSphere, ESXi, VMachines, Virtual Appliance
Как запретить vMotion отдельной виртуальной машине на VMware vSphere.
Если вы хотите, чтобы никто не делал vMotion конкретной виртуальной машины с конкретного сервера VMware ESXi, то нужно просто разослать письмо администраторам vSphere с просьбой этого не делать. Но есть еще один способ, который поведал нам Frank Denneman - хотя он тоже имеет ограниченные условия применения. Ну и не забываем, что есть способ путем задания правил механизма балансировки VMware DRS (однако, не у всех по лицензии DRS есть).
В этом способе есть один существенный минус - в то время, как он не позволяет пользователю двинуть виртуальную машину через vMotion вручную, смигрировать машину можно будет через перевод хоста ESXi в Maintenance mode, так как делается это не под аккаунтом пользователя, а под системной учетной записью (System). Но режим обслуживания используется редко, и хотя бы для ручных операций это можно будет сделать. Ну и имейте в виду, что механизм VMware HA также может перезапустить машину на другом хосте в случае сбоя, наплевав на все.
Итак, чтобы отключить vMotion для конкретной виртуальной машины, нужно создать новую роль (No-vMotion), для которой необходимо отключить привилегию по vMotion машины, назначатить эту роль администраторам и добавить пермиссию для виртуальной машины, указав юзеров с этой ролью (как работает этот механизм читайте здесь).
Итак, добавляем роль No-vMotion в vSphere Web Client:
1. Заходим в vCenter как administrator.
2.
Идем на домашний экран и переходим в Roles на экране Administration.
3. Выбираем действие создать роль (зеленый плюс).
4. Выбираем "All Priveleges", скроллимся до категории "Resource" и отчекиваем следующие привилегии,
- Migrate powered off virtual machine
- Migrate powered on virtual machine
- Query vMotion

Далее добавляем пермиссию для виртуальной машины для нужного администратора/группы:
1. Выбираем "Host and Clusters" и находим нужную ВМ на вкладке Manage.
2. Выбираем пункт "Permissions" и кликаем на добавление пермиссии (зеленый плюс).
3. Нажимаем "Add" и выбираем пользователя или группу, которым мы хотим запретить vMotion этой виртуальной машины.
4. В правой части экрана выбираем роль "No-vMotion" и нажимаем "Ok".

Убеждаемся, что роль применена для данного пользователя к данному объекту (на остальные пермиссии это не повлияет):

Попробуем смигрировать эту виртуальную машину пользователем FrankD - видим, что опция "Migrate" загреена:

Но вот возможность перевода в Maintenance mode, к сожалению, по-прежнему активна:

Кто-нибудь знает более простой и надежный способ? Таги: VMware, vSphere, vMotion, VMachines, Security, Обучение, ESXi, DRS, Blogs
Как создать пользователя VMware ESXi из командной строки и использовать это в скриптах.
Многие администраторы, которым требуется создание пользователей VMware vSphere на хостах ESXi используют vSphere Client.

Однако завести нового юзера можно и из консоли ESXi, только делается это не совсем обычным способом, который предложили вот тут.
Надо использовать команду adduser, которая исключена из окружения командной строки (раньше она была на ESX), но по-прежнему доступна через busybox.
Добавляем нового пользователя так:
# /usr/lib/vmware/busybox/bin/busybox adduser -s /bin/sh -G root -h / steve
здесь:
- -G - группа пользователя (добавляем рута)
- -h - его домашняя директория
- steve - понятное дело, имя пользователя
После выполнения этой команды будет выведен интерактивный запрос на создание пароля пользователя, что не очень удобно для автоматизированных скриптов.
Есть команда, которая не предлагает ввести пароль, но создает пользователя без пароля:
# /usr/lib/vmware/busybox/bin/busybox adduser -s /bin/sh -G root -h / -D steve
Однако создавать пользователя без пароля - моветон. Поэтому следующей командой в скрипте можно задать ему нужный пароль:
# echo testpass | passwd steve --stdin
Вот так элегантно и просто вбиваем юзеру steve пароль "testpass". Конечно же, это все не поддерживается со стороны VMware, поэтому все это вы делаете на свой страх и риск. Таги: VMware, vSphere, ESXi, Обучение, Security
Новый документ "Performance of vSphere Flash Read Cache in VMware vSphere 5.5" - как получить детальную информацию о кэше vFRC.
Как знают те из вас, кто следит за развитием технологий VMware, есть такой механизм как vFRC (vSphere Flash Read Cache), представляющий собой распределенный кэш на SSD-накопителях локальных дисков серверов ESXi (ранее он имел рабочее название vFlash). Не так давно мы писали про обзорный документ "What’s New in VMware vSphere Flash Read Cache", а на днях вышел более глубокий технический документ "Performance of vSphere Flash Read Cache in VMware vSphere 5.5", посвященный производительности vFRC.

Помимо всего прочего, в документе рассматривается способ получения информации о структуре и содержимом кэша vFRC. Сделать это можно с помощью команды:
~ # esxcli storage vflash cache list
Эта команда выведет список идентификаторов кэша для VMDK-дисков, для которых включена vFRC. Далее с помощью следующей команды можно узнать детали конкретного ID кэша:
# esxcli storage vflash cache get –c <cache-identifier>
Несколько больше информации (включая объем закэшированных данных) можно почерпнуть из команд, приведенных ниже. Для этого потребуется создать переменную CacheID:
~ # cacheID='vsish -e ls /vmkModules/vflash/module/vfc/cache/'
~ # vsish -e get /vmkModules/vflash/module/vfc/cache/${cacheID}stats
В результате будет выведено что-то подобное:
vFlash per cache instance statistics {
cacheBlockSize:8192
numBlocks:1270976
numBlocksCurrentlyCached:222255
numFailedPrimaryIOs:0
numFailedCacheIOs:0
avgNumBlocksOnCache:172494
read:vFlash per I/O type Statistics {
numIOs:168016
avgNumIOPs:61
maxNumIOPs:1969
avgNumKBs:42143
maxNumKBs:227891
avgLatencyUS:16201
maxLatencyUS:41070
numPrimaryIOs:11442
numCacheIOs:156574
avgCacheLatencyUS:17130
avgPrimaryLatencyUS:239961
cacheHitPercentage:94
}
write:vFlash per I/O type Statistics {
numIOs:102264
avgNumIOPs:307
maxNumIOPs:3982
avgNumKBs:10424
maxNumKBs:12106
avgLatencyUS:3248
maxLatencyUS:31798
numPrimaryIOs:102264
numCacheIOs:0
avgCacheLatencyUS:0
avgPrimaryLatencyUS:3248
cacheHitPercentage:0
}
rwTotal:vFlash per I/O type Statistics {
numIOs:270280
avgNumIOPs:88
maxNumIOPs:2027
avgNumKBs:52568
maxNumKBs:233584
avgLatencyUS:11300
maxLatencyUS:40029
numPrimaryIOs:113706
numCacheIOs:156574
avgCacheLatencyUS:17130
avgPrimaryLatencyUS:27068
cacheHitPercentage:58
}
flush:vFlash per operation type statistics {
lastOpTimeUS:0
numBlocksLastOp:0
nextOpTimeUS:0
numBlocksNextOp:0
avgNumBlocksPerOp:0
}
evict:vFlash per operation type statistics {
lastOpTimeUS:0
numBlocksLastOp:0
nextOpTimeUS:0
numBlocksNextOp:0
avgNumBlocksPerOp:0
}
}
Приведенный вывод содержит все метрики, означенные в упомянутом документе. Далее вы можете использовать эту информацию для принятия решения о размере кэша на серверах ESXi и значении других настроек, описанных в документе. Таги: VMware, vFRC, Cache, SSD, vSphere, ESXi, Обучение, Troubleshooting, Whitepaper
Вышел vCloud Hybrid Service vSphere Client plug-in 1.5 - больше возможностей по работе с публичным облаком VMware.
Не так давно мы писали о том, что публичное облако VMware vCloud Hybrid Service стало дешевле и начинает экспансию в Европу, начав с британских датацентров. А на днях VMware обновила свой плагин vCloud Hybrid Service vSphere Client plug-in до версии 1.5, который позволяет управлять гибридным облаком (собственная виртуальная инфраструктура плюс ее часть, размещенная на стороне датацентров vCHS). Напомним, что про vCloud Hybrid Service vSphere Client версии 1.0 мы уже писали вот тут.
Данный плагин работает только под vSphere Web Client версии 5.5. С помощью плагина можно делать следующие вещи:
- Администрировать ресурсы на стороне публичного облака VMware (как в режиме Dedicated Cloud, так и в режиме Virtual Private Cloud).
- Просматривать инвентори виртуальных машин и управлять виртуальными датацентрами, их шлюзами и сетями.
- Развертывать виртуальные машины из шаблонов, находящихся в каталоге, а также изменять конфигурацию существующих ВМ.
- Автоматически получать обновления любых изменений, сделанных через vCHS web portal.
В версии плагина 1.5 была также добавлена поддержка двух механизмов: ярусного хранения (Storage tiers) и восстановления после сбоя (Disaster Recovery). Теперь вы можете настраивать размещение дисковых ресурсов виртуальных машин по ярусам ("тирам") на уровне виртуального датацентра (VDC), а также перемещать виртуальную машину с одного яруса (типа хранилища) на другой в зависимости от требований к хранилищам:

Кроме того, новая версия плагина позволяет просматривать ресурсы vCloud Hybrid Service Disaster Recovery (DR), такие как виртуальные датацентры и ВМ, их атрибуты (состояние ВМ, статус репликации и используемое хранилище на случай восстановления на стороне vCHS). Также можно выполнять некоторые действия, касающиеся DR-активностей, такие как тестирование восстановления и удаления его следов (Clean Up) прямо из плагина, не заходя в панель управления vCHS.

Также в плагине появилась возможность сохранять его логи в отдельный файл (по умолчанию логи сохраняются в основной лог клиента vsphere_client_virgo.log).
Плагин поставляется в виде родного установщика для vSphere Web Client, поэтому начать использовать его не составляет труда. Для заинтересовавшихся ниже представлено видео с возможностями vCloud Hybrid Service vSphere Client plug-in 1.5:
Скачать vCloud Hybrid Service vSphere Client plug-in 1.5 можно будет уже скоро по этой ссылке (пока там почему-то старая версия). Документация доступна тут. Таги: VMware, vCHS, Update, Plugin, vSphere, Cloud, Hybrid Cloud, Cloud Computing
Быстрый доступ к консоли виртуальной машины - VMware Guest Console Tool 1.0.
Интересная утилитка (с открытым исходным кодом) появилась для VMware vSphere - VMware Guest Console Tool 1.0. Она позволяет соединиться с сервером VMware vCenter, выбрать в комбобоксе запущенную виртуальную машину и получить доступ к ее консоли. То есть жирный и долгий vSphere Client запускать не нужно.

Системные требования:
- PowerCLI 5.5
- .NET Framework 4.0
- PowerShell 3.0
- Сервер vCenter и хотя бы одна запущенная виртуальная машина
Скачать VMware Guest Console Tool 1.0 можно по этой ссылке.
Таги: VMware, vSphere, VMachines
Самообслуживание с помощью Cisco UCS Director: как дать пользователям возможность самостоятельно создавать виртуальные сервера.
В этом посте специалисты компани ИТ-ГРАД расскажут о решении Cisco UCS Director и покажут как сделать так, чтобы конечные пользователи могли самостоятельно сформировать запрос на портале самообслуживания Cisco UCS Director и автоматически получить готовую виртуальную машину.
Для этого мы с вами научимся создавать наборы политик и объединять несколько политик в группу в рамках vDC, а также создадим каталог (шаблон) на базе этих политик, чтобы предоставить пользователям доступ к этому каталогу через портал самообслуживания.
Начнем с инфраструктуры. Инфраструктура, на базе которой мы будем выполнять все настройки, состоит из:
- NetApp Clustered DataONTAP 8.2 Simulator в качестве дискового массива;
- виртуальной инфраструктуры развернутой на базе:
- ESXi appliance 5.5.0;
- vCenter appliance 5.5.0a.
Выглядит это примерно так:

Сразу отмечу, что все настройки политик и параметров для шаблона(ов) виртуальных машин в нашем посте будут относиться к VMWare vSphere инфраструктуре..Читать статью далее Таги: IT-Grad, Cisco, UCS, Hardware, Cloud, Cloud Computing, Обучение, VMware, vSphere
Как установить время и дату на сервере VMware ESXi.
Многие начинающие администраторы VMware vSphere задаются вопросом, как правильно установить время на хосте VMware ESXi. Те из них, кто привык делать это в ОС Linux, могут попробовать выполнить команду:
~ # date -s
Однако будет вот такой результат:
date: option requires an argument -- s BusyBox v1.19.0 (2012-02-29 14:20:08 PST) multi-call binary. Usage: date [OPTIONS] [+FMT] [TIME] Display time (using +FMT), or set time
[-s,--set] TIME Set time to TIME -u,--utc Work in UTC (don't convert to local time) -R,--rfc-2822 Output RFC-2822 compliant date string -I[SPEC] Output ISO-8601 compliant date string SPEC='date' (default) for date only, 'hours', 'minutes', or 'seconds' for date and time to the indicated precision -r,--reference FILE Display last modification time of FILE -d,--date TIME Display TIME, not 'now' -D FMT Use FMT for -d TIME conversion
Recognized TIME formats: hh:mm[:ss] [YYYY.]MM.DD-hh:mm[:ss] YYYY-MM-DD hh:mm[:ss] [[[[[YY]YY]MM]DD]hh]mm[.ss]
~ # date -s 2014-07-12 12:00:00 date: Setting date not supported; use <esxcli system time set>
Обратим внимание на последнюю строчку, которая говорит нам о том, что команда date не поддерживается для установки даты и времени, вместо нее нужно использовать утилиту esxcli. Выполняем указанную команду:
~ # esxcli system time set You must specify one of year, month, day, hour, minute or second
Вызовем помощь:
~ # esxcli system time set --help
Usage: esxcli system time set [cmd options]
Description:
set Set the system clock time. Any missing parameters will default to the current time
Cmd options:
-d|--day=<long> Day
-H|--hour=<long> Hour
-m|--min=<long> Minute
-M|--month=<long> Month
-s|--sec=<long> Second
-y|--year=<long> Year
Теперь все стало ясно: чтобы установить, например, октябрь месяц, вызываем команду с параметром "-M 10", то есть:
~ # esxcli system time set -M 10
Проверяем, что октябрь установился:
~ # date
Mon Oct 12 10:43:52 UTC 2014
Аналогично устанавливаем год, день, часы и минуты, используя параметры -y, -d, -H, -m, соответственно.
Ну а проверить можно не только с помощью date, но и через esxcli, заменив set на get:
~ # esxcli system time get
2014-07-12T10:59:14Z
Таги: VMware, ESXi, vSphere, Обучение, Troubleshooting
Как сбросить время пробной лицензии VMware vSphere (Reset ESXi trial).
Как вы знаете, платформу VMware vSphere можно использовать бесплатно в полнофункциональном режиме в течение 60 дней. Однако, зачастую, этого времени оказывается недостаточно, и многие пользователи хотят сбросить триальную лицензию VMware ESXi, чтобы использовать продукт еще некоторое время до покупки.
Ниже приведен способ, как обновить триал VMware vSphere снова до 60 дней. Общая процедура такова:
- Отсоединяем хост ESXi от vCenter
- Заходим на ESXi через DCUI или по SSH
- Удаляем файлы /etc/vmware/vmware.lic и /etc/vmware/license.cfg
- Перезагружаем сервер
- Присоединяем хост к vCenter
После этого вы получите вот такую картинку - хост затриалится еще на 60 дней:

Команды удаления указанных файлов и перезагрузки следующие:
rm -f /etc/vmware/vmware.lic /etc/vmware/license.cfg
reboot
Для VMware vSphere 5.1 и 5.5 эти файлы надо удалять после каждой перезагрузки. Делается это так:
rm -f /etc/vmware/vmware.lic /etc/vmware/license.cfg
reboot ; while true ; do
rm -f /etc/vmware/vmware.lic /etc/vmware/license.cfg
done
Для ESXi 5.1 есть альтернативный метод без перезагрузки:
rm -r /etc/vmware/license.cfg
cp /etc/vmware/.#license.cfg /etc/vmware/license.cfg
/etc/init.d/vpxa restart
Для ESXi 5.0 это тоже делается без ребута:
rm -f /etc/vmware/vmware.lic /etc/vmware/license.cfg
services.sh restart
Ну а если у вас вдруг истек триал, а вы не успели прописать лицензию на хост, то сделать это очень просто. Надо открыть файл /etc/vmware/vmware.lic (зайдя по SSH):
~# vi /etc/vmware/vmware.lic

и прописать туда ваш ключик, после чего все должно заработать. Перезагрузка, вроде, не требуется.
Для vCenter тоже есть способ сброса триала, но не факт, что он сейчас работает:
- Создаем новый DSN к локальной базе SQL Express, где хранятся данные vCenter
- Удаляем vCenter
- Ставим vCenter заново, указав созданный DSN и убедившись, что не выбран режим overwrite
Таги: VMware, vSphere, ESXi, Обучение, Trial
VMware vSphere Virtual Volumes (VVols) - использование различных vSphere API для операций клонирования виртуальных машин.
Как мы писали недавно, в новой версии платформы VMware vSphere 6, которая сейчас находится в стадии публичной беты, появились возможности использования томов VVols (о которых мы писали здесь). Сейчас эта функциональность также находится в бете и доступна для загрузки вот тут.
Концепция VVol (она же VM Volumes) увеличивает уровень гранулярности работы хост-сервера с хранилищем за счет непосредственных операций с виртуальной машиной, минуя сущности "LUN->том VMFS->Datastore". Тома VVol является неким аналогом существующих сегодня LUN, но с меньшим уровнем гранулярности операций по сравнению с томами VMFS (последние, как правило, создаются из одного LUN). Таким образом, ВМ находится на одном VVol как всадник на лошади.
Чтобы виртуальные машины можно было создавать на томах VVols и производить с ними различные операции, нужно чтобы дисковый массив поддерживал такой интерфейс как vSphere APIs for Storage Awareness (VASA). Через этот API возможна передача функций, обычно выполняемых хостом ESXi, на сторону аппаратного хранилища. Кроме того, есть также интерфейс vSphere Storage API – Array Integration (VAAI), который также используется для offloading'а операций на сторону массива, особенно когда дело касается операций миграции и клонирования ВМ.
Давайте посмотрим, как эти два API (VASA и VAAI) работают с хранилищем при операциях клонирования виртуальных машин, которые часто нужны в инфраструктуре виртуальных ПК на базе VMware Horizon View.
Сценарий 1 - клонирование ВМ в рамках одного контейнера VVol
В этом случае через API VASA вызывается функция cloneVirtualVolume, которая полностью передает на сторону дискового массива операцию клонирования ВМ:

Сценарий 2 - клонирование ВМ в рамках разных VVol
В этом случае все зависит от того, на каких хранилищах находятся данные VVol. Если VVol-a и VVol-b находятся на двух массивах одного вендора, настроенных единообразно, и управляются одним VASA Provider, то в этом случае используется API VASA и вызывается функция cloneVirtualVolume.
Если же VVol-a и VVol-b находятся на одном массиве и настроены по-разному, либо хранилища VVol-a и VVol-b находятся на двух массивах разных вендоров или моделей, то операция через VASA API может не пройти. Тогда происходит переключение на VAAI API, который использует датамувер ESXi (vmkernel data mover) и примитивы VAAI для клонирования виртуальной машины. При этом в случае неудачи передачи операций клонирования на сторону массива датамувер может начать перемещать данные через хост ESXi (подробнее - тут):

Конечно же, предпочтительнее делать все через VASA API - такая операция пройдет быстрее, поскольку в ней не будет задействован хост ESXi. Поэтому тут важна унификация конфигурации хранилищ и дисковых массивов в инфраструктуре. Ну и надо, конечно же, смотреть, чтобы закупаемые массивы в полной мере поддерживали VASA и VAAI.
Сценарий 3 - клонирование ВМ с тома VMFS на VVol
Если получается так, что ВМ надо склонировать с тома VMFS на хранилище VVol, то тут будет работать только операция XCOPY / WRITE_SAME интерфейса VAAI.

При этом работает это только для операции в направлении VMFS->VVol, при обратном клонировании этот API использован не будет.
Узнать больше о томах VVol и позадавать вопросы на эту тему вы можете на специальной странице Virtual Volumes beta community.
Таги: VMware, vSphere, VVol, VAAI, VASA, ESXi, Storage, Hardware, VMachines
Новое видео: VMware vSphere Distributed Switch Concept.
Недавно компания VMware выпустила интересное видео - vSphere Distributed Switch (vDS) Concept, из которого начинающие пользователи платформы виртуализации VMware vSphere могут понять, зачем именно им нужен распределенный виртуальный коммутатор:
Как показано в видео, VMware vDS нужен для следующих вещей:
- Централизация операций по управлению сетевой конфигурацией хостов VMware ESXi.
- Мониторинг состояния сетевых компонентов инфраструктуры на различных уровнях и решение проблем (траблшутинг).
- Резервное копирование и восстановление конфигурации сети в случае сбоев.
- Возможность приоретизации различных типов трафика (NetIOC).
- Расширенные возможности для сетевых администраторов.
Это видео неплохо бы показать своему сетевому администратору перед внедрением vDS, если вы его планируете. Кстати, для тех, кто хочет узнать больше о возможностях распределенных коммутаторов от VMware и Cisco, есть отличный документ на русском языке "Сетевые функциональные возможности распределенного
виртуального коммутатора VMware vSphere и коммутаторов Cisco Nexus серии 1000V". Из таблички, приведенной в нем, видно, какие новые возможности появляются у коммутатора vDS по сравнению с ESXi Standard vSwitch:




Таги: VMware, vDS, vNetwork, Video, vSphere
Почему виртуальный модуль VMware vCenter Server Appliance (vCSA) еще не годится для производственной среды.
Некоторое время назад мы писали про особенности и ограничения виртуального модуля VMware vCenter Server Appliance (vCSA) по сравнению с обычным серверов vCenter, устанавливаемым в ОС Windows физической и виртуальной машины. Также мы писали о том, что выбрать - установку vCenter в виртуальной машине или использование vCSA.
Недавно на блогах VMware появился интересный пост, по-сути говорящий о том, что модуль vCSA имеет несколько ограничений и неприятных аспектов эксплуатации, которые надо учитывать, и которые не позволяют использовать это решение в производственной среде.

Приведем здесь эти тезисы:
1. Из всех ограничений VMware vCenter Server Appliance самым основным является отсутствие средства обновления хост-серверов VMware ESXi - VMware Update Manager (VUM). Его конечно можно поставить на отдельную Windows-машину, но тогда весь смысл vCSA теряется. Эту ситуацию обещают исправить в VMware vSphere 6.0. Кроме того, отсутствие таких функций, как Linked Mode, работы с кластерами VSAN и поддержки внешней БД Microsoft SQL Server делают для многих модуль vCSA неприемлемым.
2. Лимиты vCSA (100 хостов и 3000 машин) меньше таковых у vCenter Server (1000 хостов и 10 000 виртуальных машин). Это, конечно, актуально только для больших компаний, но все же. Если понадобится, то с vCSA можно использовать внешнюю БД, но только Oracle.
3. В качестве гостевой ОС для vCSA используется дистрибутив SUSE, который имеет отдельную от VMware политику обновлений. VMware не накатывает эти обновления и хотфиксы, как только они становятся доступны. Соответственно, этот факт может вступить в конфликт с политикой информационной безопасности, предполагающей своевременное обновление компонентов виртуальной инфраструктуры.
4. Использование модуля vCSA по-прежнему предполагает знание внутренностей Linux. Если с vCenter Server for Windows справится любой администратор, то для vCSA потребуется квалифицированный специалист, если там что-то сломается.
5. Если в силу перечисленных ограничений вы решите смигрировать с vCSA на vCenter для Windows, это может оказаться проблематичным, так как никаких средств миграции не предусмотрено. Это придется делать вручную, а между тем политика во многих организациях требует сохранения исторических данных (о производительности, действиях администраторов и прочего). Сохранить эти данные не получится.
Поэтому, все-таки, VMware vCenter Server Appliance пока еще не готов для производственной среды, однако мы ожидаем, что ситуация с выходом vSphere 6.0 значительно улучшится. Таги: VMware, vCSA, vCenter, vSphere, Enterprise
Впервые на арене - компания VMware открыла публичную бету новой версии VMware vSphere 6.0.
Как многие из вас знают, бета-версии платформы виртуализации VMware vSphere всегда были закрытыми, тестировал их очень ограниченный круг пользователей, находившихся под действием соглашения NDA (Non-disclosure agreement), которое подразумевало страшные кары и звонки юристов в случае его нарушения. В письмах с новостями о бета-версии были большие красные буквы про конфиденциальность, а за разглашение информации о новых возможностях продукта пытались наказать всех подряд, даже тех, кто этого соглашения не подписывал.
Возможно, компании VMware надоела вся эта канитель, и она впервые в своей истории решилась на открытое бета-тестирование VMware vSphere 6.0, но (видимо, по привычке) решила запретить публичное разглашение и обсуждение сведений о новой версии продукта.

For the first time, and unlike previous beta cycles for vSphere, this vSphere Beta is open to everyone to sign up and allows participants to help define the direction of the world’s most widely adopted, trusted, and robust virtualization platform.

Зарегистрировавшись в публичной бета-программе и подписав NDA, пользователи попадают в закрытое общество, где они могут обсуждать новые возможности платформы VMware vSphere, но им как бы запрещено это обсуждать с теми, кто не принимает участие в бете. Звучит как что-то очень параноидальное, но это так.
Итак, как участник VMware vSphere Beta Program вы можете:
- Обсуждать продукт и саму программу с другими участниками бета-программы.
- Постить в закрытые форумы на VMware Communities.
- Общаться с вендорами серверного оборудования на эту тему (они тоже должны быть под NDA).
В то же время как участник VMware vSphere Beta Program вы не можете:
- Обсуждать условия программы или новые возможности продукта публично.
- Обсуждать программу приватно, но с теми людьми, которые не находятся под NDA.
В общем, можете сами теперь попробовать, что такое VMware vSphere 6.0 Beta 2. Нужно нажать кнопку "Join now!" в правой части, после чего принять VMware Master Software Beta Test Agreement (MSBTA) и vSphere Program Rules agreement. Бесспорно, публичная бета-кампания позволит VMware поднять качество своих продуктов, так как любой желающий сможет сообщить об ошибке, возникшей у него в тестовой среде.
Одновременно с анонсом публичной беты VMware vSphere 6.0 компания VMware раскрыла некоторые подробности о функциональности Virtual Volumes (VVols), о которой мы писали вот тут. Концепция VVol (она же VM Volumes) увеличивает уровень гранулярности работы хост-сервера с хранилищем за счет непосредственных операций с виртуальной машиной, минуя сущности "LUN->том VMFS->Datastore". Тома VVol является неким аналогом существующих сегодня LUN, но с меньшим уровнем гранулярности операций по сравнению с томами VMFS (последние, как правило, создаются из одного LUN).
То есть, VVol - это низкоуровневое хранилище одной виртуальной машины, с которым будут позволены операции на уровне массива, которые сегодня доступны для традиционных LUN - например, снапшоты дискового уровня, репликация и прочее. Делается это через механизм vSphere APIs for Storage Awareness (VASA). Таким образом, все необходимое хранилище виртуальной машины упаковывается в этот самый VVol. Более подробно о томах VVol можно узнать на специальной странице.
Само собой, такое должно поддерживаться со стороны производителей хранилищ, которые уже давно работают с VVol и записали несколько демок:
Tintri
SolidFire
HP
NetApp
EMC
Nimble Storage
Ну а вообще, конечно, это шаг вперед по сравнению с той паранойей VMware, которая была раньше вокруг бета-версий VMware vSphere.
Таги: VMware, vSphere, Beta, Update, Blogs
Как расширить локальный том VMFS в VMware ESXi.
Как многие из вас знают, в платформе виртуализации VMware vSphere есть множество удобных средств работы с хранилищами, включая средства позволяющие расширить том VMFS прямо из GUI клиента vSphere Client - достаточно лишь сделать Rescan HBA-адаптеров. Однако если необходимо расширить локальный том (Local VMFS), то тут встроенных средств уже нет, и все нужно аккуратно делать самому, как это описано в KB 2002461. Приведем здесь этот процесс, проиллюстрировав его скриншотами. Таги: VMware, VMFS, Storage, Обучение, vSphere, ESXi
Новые документы "VMware Virtual SAN Ready Nodes" и "Virtual SAN Hardware Quick Reference Guide" - готовые серверы для VSAN и рекомендации по сайзингу.
Недавно компания VMware выпустила интересный документ "VMware Virtual SAN Ready Nodes", в котором приведены примеры серверных конфигураций от различных производителей, которые подходят в качестве узлов отказоустойчивого кластера хранилищ VMware Virtual SAN.

В обновленной версии документа были удалены некоторые старые конфигурации серверов, а новые добавлены. В ближайшие несколько недель ожидается пополнение документа новыми моделями и конфигурациями узлов.
К каждой спецификации на сервер прилагается профиль нагрузки, для которой предлагается его использовать, например, VDI-инфраструктура с числом виртуальных ПК до 100 или серверная инфраструктура на 60 ВМ. Также прилагается примерная конфигурация виртуальной машины, например:
Virtual Machine Profle: 2 vCPU, 6 GB Memory, 2 x 60 GB virtual disks

Пока в документе есть серверы только четырех производителей (но скоро точно будет больше):
- Dell
- Fujitsu
- HP
- SuperMicro
Также у компании VMware на тему выбора и сайзинга кластеров Virtua SAN есть полезный документ "Virtual SAN Hardware Quick Reference Guide", где рассматриваются различные профили нагрузок виртуальных машин, размещенных на хранилищах отказоустойчивого кластера VSAN.

В первой таблице документа в столбцах приведены примеры нагрузок (например, полные клоны виртуальных десктопов или средняя серверная нагрузка), а в строчках рассматриваются различные аппаратные характеристики узлов, такие как вычислительные мощности, число дисков и их емкость, память, сетевые адаптеры и т.п.:

Также в документе есть рекомендации по сайзингу кластера хранилищ, а также рекомендуемым аппаратным характеристикам (например, число дисковых групп или необходимая минимальная глубина очереди на дисковом контроллере).
Напомним также, что есть еще документ "VMware Virtual SAN Hardware Design Guide", который может вам помочь с выбором узлов для кластера Virtual SAN. Таги: VMware, Virtual SAN, Hardware, VSAN, Whitepaper, vSphere, Storage
Куда делся сетевой адаптер (vNIC) виртуальной машины на VMware vSphere?
Бывает такое, что пользователь системы жалуется администратору виртуальной инфраструктуры VMware vSphere, что у него пропал сетевой адаптер в виртуальной машине, и она больше недоступна из внешней сети. Администратор смотрит в лог виртуальной машины (vmware-##.log) и видит там вот такое:
Mar 15 03:13:37.463: vmx| Powering off Ethernet1
Mar 15 03:13:37.463: vmx| Hot removal done.
Это, как вы уже догадались, означает, что кто-то тыкнул на иконку "Safely Remove Hardware" в гостевой ОС и выбрал там сетевой адаптер ВМ:

Либо это было сделано случайно в vSphere Client или Web Client. Поправить это легко - надо отключить функции Hot Add для виртуальной машины.
Для этого:
- Соединяемся с хостом ESXi/ESX напрямую или через vCenter Server посредством vSphere Client.
- Выключаем виртуальную машину.
- Выбираем для нее Edit Settings и переходим на вкладку Options.
- Выбираем General > Configuration Parameters > Add Row.
- Добавляем строчку с именем devices.hotplug и значением false.
- Включаем виртуальную машину.
После этого при попытке удаления устройства работающей виртуальной машины будет выдано такое сообщение

Если же вы не хотите запрещать Hot Add для всех устройств, а хотите просто спрятать возможность удаления сетевой карты из Safely Remove Hardware, то нужно сделать следующее:
- Запустить редактор реестра как Local System. Для этого можно использовать утилиту psexec Tool.
- Выполняем psexec -i -s regedit.exe.
- Идем в ветку
HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Enum ищем наш драйвер NIC (в его названии есть VMXNET3, E1000 и т.п.).
- Установите значение ключа Capabilities на 4 единицы ниже.
Например, вот тут мы видим значение ключа 16:

Устанавливаем его на 4 меньше, то есть в значение 12:

После этого сетевой адаптер исчезнет из безопасного удаления устройств:

Таги: VMware, vSphere, Troubleshooting, ESXi, VMachines, vNetwork
Технология репликации VMware vSphere Replication и обеспечение политики RPO.
Как вы знаете, в VMware vSphere (еще с версии 5.1) есть механизм репликации виртуальных машин vSphere Replication (VR), который позволяет создавать копию виртуальной машины на другом хосте и хранилище на случай сбоя. Именно она используется для асинхронной репликации в катастрофоустойчивом решении VMware vCenter Site Recovery Manager (SRM).
Периодичность репликации со стороны владельца системы должна задаваться политикой RPO (Recovery Point Objective), определяющей какое максимальное количество данных выраженное во времени мы можем потерять в случае сбоя. Например, RPO=15 минут означает, что самое большое, что не будет подлежать восстановлению - это изменения, произошедшие в системе за последние 15 минут.
Этот параметр и задается в первую очередь при настройке репликации для виртуальной машины:

Здесь можно задать значение от 15 минут до 24 часов. Однако не обязательно это требование будет выполнено, ведь если ширина канала у вас небольшая, а машин на хостах много, то они просто могут не поместиться в эту полосу с необходимой для обеспечения RPO частотой репликации.
Кстати, на данный момент расписание задачи репликации генерируется автоматически на основании исторических данных об изменении блоков виртуальных дисков за последние 48 часов. При этом расписание репликации пересчитывается каждый раз, когда виртуальная машина меняет свое состояние (питание, реконфигурация репликации и т.п.).
Поскольку задаче репликации нужно некоторое время на выполнение, каждая реплика считается устаревшей к тому времени, как сама задача считается выполненной. Поэтому чтобы предотвратить нарушение политики RPO, vSphere Replication должна выполнить задачу репликации за половину времени, определенного политикой RPO. Половину - так как если вторая репликация не сможет завершиться в случае сбоя, то мы сможем вернуться только в то состояние виртуальной машины, которое предшествовало началу первой репликации. Для этого потребуется восстановить первую реплику.
Ожидаемое время репликации вычисляется как среднее время последних 15 репликаций плюс 20% прибавка в качестве запаса к этому времени.
Рассмотрим пример:

Здесь у нас установлено RPO=60 минут. В первом случае на репликацию ушло 22 (текущая) и 23 (ожидаемая) минуты, каждая из них меньше половины времени RPO, соответственно политика считается выполненной. Во втором случае текущая и следующая репликации выходят за границы половины RPO, обе репликации в сумме дают 68 минут, поэтому политика считается нарушенной.
То есть, если исходный хост навернется через 67 минут, то мы сможем откатиться только в то состояние хоста, которое было 67 минут назад (восстановив первую реплику), что противоречит политике RPO, которая была определена как 60 минут.
В случае нарушения RPO сама репликация будет продолжена, однако вы будете получать вот такие алерты в консоли vSphere Client:

Что в этом случае делать? Выхода всего два - либо увеличивать и согласовывать новое RPO для сервиса виртуальной машины, либо увеличивать доступную полосу пропускания для сети репликации, что должно уменьшить время выполнения задачи.
Кстати, в плане определения необходимой ширины канала для репликации вам поможет специальное средство VMware vSphere Replication Capacity Planning Appliance. Таги: VMware, vSphere, Replication, DR, VMachines
Обновления от VMware: vCenter Server 5.5 Update 1b, патч ESXi Update 1 для решения проблем NFS-хранилищ и OpenSSL, а также vCloud Director 5.5.1.2.
На прошедшей неделе компания VMware вплотную занялась патчингом и фиксингом своих продуктов, закрывая те проблемные места, которые накопились за прошедшие пару-тройку месяцев. Прежде всего, было выпущено обновление ESXi550-201406401-SG, которое решает сразу две проблемы на VMware vSphere 5.5 Update 1.

Во-первых, мы уже писали о том, что в VMware vSphere 5.5 Update 1 был баг - если использовать NFS-хранилища, то они периодически отваливаются, переходя в состояние APD (All paths down). Это касается и VSA-хранилищ. В логах при этом наблюдается что-то вроде такого:
2014-04-01T14:35:08.074Z: [APDCorrelator] 9413898746us: [vob.storage.apd.start] Device or filesystem with identifier [12345678-abcdefg0] has entered the All Paths Down state.
2014-04-01T14:35:08.075Z: [APDCorrelator] 9414268686us: [esx.problem.storage.apd.start] Device or filesystem with identifier [12345678-abcdefg0] has entered the All Paths Down state.
2014-04-01T14:36:55.274Z: No correlator for vob.vmfs.nfs.server.disconnect
2014-04-01T14:36:55.274Z: [vmfsCorrelator] 9521467867us: [esx.problem.vmfs.nfs.server.disconnect] 192.168.1.1/NFS-DS1 12345678-abcdefg0-0000-000000000000 NFS-DS1
2014-04-01T14:37:28.081Z: [APDCorrelator] 9553899639us: [vob.storage.apd.timeout] Device or filesystem with identifier [12345678-abcdefg0] has entered the All Paths Down Timeout state after being in the All Paths Down state for 140 seconds. I/Os will now be fast failed.
2014-04-01T14:37:28.081Z: [APDCorrelator] 9554275221us: [esx.problem.storage.apd.timeout] Device or filesystem with identifier [12345678-abcdefg0] has entered the All Paths Down Timeout state after being in the All Paths Down state for 140 seconds. I/Os will now be fast failed.
В выпущенном обновлении эта ошибка была исправлена.
Во-вторых, была также исправлена ошибка безопасности в OpenSSL, которая может оказаться даже серьезнее, чем исправленный ранее баг OpenSSL Heartbleed. В ESXi существует вероятность атаки типа MiM (Man in the Middle), о которой подробнее рассказано вот тут. Этот баг в приведенном выше обновлении был также зафикшен. Кстати, в своем блоге компания VMware объявила о том, что ее команда безопасности расследует новые возможные уязвимости OpenSSL, и вот тут приведены результаты ее работы.
Чтобы скачать патч, идем на VMware Patch Portal, выбираем там продукт "ESXi Embedded & Installable", версию релиза 5.5.0 и дату - 10 июня. Получаем ссылку на патч:

Применить этот патч можно и не скачивая его с сайта VMware, а просто с помощью следующей последовательности команд:
# открываем фаервол для http
esxcli network firewall ruleset set -e true -r httpClient
# устанавливаем образ ESXi-5.5.0-20140604001-standard из хранилища VMware Online depot
esxcli software profile update -d https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xml -p ESXi-5.5.0-20140604001-standard
# перезагружаем хост ESXi
reboot
Также на днях компания VMware выпустила обновления продукта vCenter Server 5.5 Update 1b:

и vCloud Director 5.5.1.2:

Оба этих исправления прежде всего несут в себе фиксы в плане безопасности протокола OpenSSL, однако там есть и другие мелкие улучшения. Рекомендуется их установить.
Надо отметить, что VMware vCenter Server Appliance не подвержен багу OpenSSL, поэтому и исправлений для него нет. Таги: VMware, vSphere, Security, Bug, Bugs, ESXi, vCenter, vCloud, Director
Вышла финальная версия VMware vSphere Hardening Guide 5.5 Update 1.
Спустя полгода с момента выпуска прошлой версии основного руководства по обеспечению безопасности виртуальной инфраструктуры, компания VMware обновила версию этого документа до vSphere Hardening Guide 5.5 Update 1. Надо отметить, что руководство по безопасности вышло аж через 3 месяца после выпуска самой vSphere 5.5 Update 1, что как бы не очень хорошо, так как многие пользователи уже используют U1 в производственной среде, и руководство им пригодилось бы раньше. Ну да ладно, бывало нужно было ждать и дольше.

Доступен также лог изменений с момента прошлого документа:

В новой версии руководства есть следующие важные изменения:
- enable-VGA-Only-Mode - эта рекомендация должна быть применена для виртуальных серверов, которым не нужен графический режим (обычно он используется для VDI-инфраструктуры). То есть для веб-серверов, серверов Windows Core и т.п. нужно этот режим включить, чтобы уменьшить поверхность возможной атаки.
- disable-non-essential-3D-features - аналогично, отключаем 3D-графику для виртуальных машин, которым это не нужно.
- use-unique-roles - если у вас несколько сервисных аккаунтов, то им не нужно назначать одну роль на всех, а нужно создавать для каждого отдельную с необходимым набором привилегий для решения нужной задачи.
- change-sso-admin-password - это рекомендация сменить пароль для аккаунта administrator@vsphere.local, когда вы используете виртуальный модуль VMware vCSA (готовая ВМ с vCenter). Для обычного vCenter этот пароль просят сменить при установке. Удивительно, но этой рекомендации раньше не было.
Ну и кроме всего прочего, было пофикшены различные ошибки (например, значения в некоторых ячейках были обрезаны), а некоторые рекомендации переместились в другие категории. Таги: VMware, vSphere, Security, ESXi, Enterprise
Как организовать окружение VMware vSphere - имена и тэги объектов виртуальной инфраструктуры.
На блогах, посвященных VMware vSphere, вышла интересная статья про то, как организовать именование и тэгирование объектов инфраструктуры виртуализации, чтобы в ней был порядок, и можно было бы просто найти нужную виртуальную машину, хранилище, сеть или другой объект. Попробуем здесь вкратце изложить основные моменты.
1. Стандарт именования объектов - ключ к порядку.
Здесь подход прост - виртуальные машины и прочие объекты должны именоваться согласно двум принципам:
- унифицированно (то есть по шаблону имени)
- чтобы было понятно, что там внутри находится
Как пример, для виртуальных машин можно использовать такую схему:
<назначение>_<тип окружения>_<порядковый номер>
Например:
EXCH_PROD_01
Датасторы можно именовать, например, так:
<датацентр>_<окружение>_<дисковый массив>_<порядковый номер>
Например:
SLC_STAGE_VPLEX_02
Для виртуальных сетей:
<имя>_<тип трафика>_<номер VLAN>
Например:
FIN_PCI_730
Ну и так далее. По аналогии назначаем шаблон именования и, собственно, имена для следующих объектов:
- Кластеры
- Шаблоны виртуальных машин
- Политики хранилищ
- Профили хостов
- И т.п.
Сделав это и применив к своей инфраструктуре, можно будет просто ориентироваться и находить нужные объекты, а также всегда помнить для чего они вообще нужны (частая проблема).
2. Переименование объектов, которые были созданы ранее.
Иногда политики именования объектов вводят уже после того, как в инфраструктуре полный бардак. Поэтому, зачастую, приходится переименовывать виртуальные машины. О том, как это делается, мы уже писали вот тут.
Если ваша лицензия позволяет делать Storage vMotion, то самый простой способ переименования - это:
- Переименовываем машину в VMware vSphere Web Client:

- Теперь видим, что между именем машины и именем папки на датасторе есть несоответствие:

- Делаем Storage vMotion машины на другое хранилище:

- После успешной миграции видим, что имя машины соответствует имени папки на хранилище (имя виртуального диска и остальных файлов в папке также станут корректными):

Кстати, есть специальный скрипт, который позволяет выявить все несоответствия между именами виртуальных машин и соответствующими папками на хранилищах.
3. Организация окружения с помощью тэгов.
Тэги позволяют ввести удобную категоризацию объектов виртуальной инфраструктуры по бизнес-критериям, что позволит ориентироваться в них с точки зрения понятных критериев (например, виртуальные машины какого-нибудь отдела), а также быстро находить то, что нужно.
Тэг назначается одному или нескольким объектам, после чего их можно искать в vSphere Web Client по этому тэгу.
Чтобы начать использовать тэги, переходим в соответствующий раздел в левом меню Web Client:

Создаем новую категорию, которая будет контейнером для тэгов. Выбираем сервер vCenter, имя категории, тип допустимых значений (один или несколько тэгов из категории на объект), а также типы объектов, которым можно назначать тэги из категории:

Теперь категория видна в представлении Tags > Category:

Далее создаем новый тэг, задав имя и привязав его к созданной категории:

Теперь этот тэг мы можем назначить указанным объектам, например, виртуальной машине:

Выбираем нужный тэг и назначаем его:

Теперь при наборе его в поиске он выскакивает как подсказка:

По тэгу мы сразу получаем доступ к нужным объектам в vSphere Web Client (например, все тестовые машины или все хранилища, используемые бухгалтерскими машинами):

Соблюдение этих простых правил позволит вам поддерживать чистоту и порядок в вашей виртуальной инфраструктуре. Таги: VMware, vSphere, VMachines, Обучение, Enterprise
|